人工智慧
13 hours ago

#人工智慧
#法律科技
#證據開示
#資料隱私
#內部調查
商傳媒|葉安庭/綜合外電報導
摘要

隨著人工智慧工具在法律領域的廣泛應用,美國法律界正積極應對其在內部調查及訴訟前證據開示階段帶來的複雜挑戰。近期判例顯示,AI 生成的互動紀錄與相關資料可能成為可供取證的電子證據,律師團隊須重新檢視資料隱私、證據保存與問責歸屬等問題,並採取措施更新其訴訟準備程序。

隨著人工智慧(AI)工具日益普及,其在法律領域的應用也帶來新的挑戰。近日,美國法律界正積極應對 AI 生成資料在內部調查及訴訟前證據開示(pretrial discovery)階段所引發的複雜問題,包括資料隱私、證據保存和問責歸屬等層面。

在內部調查方面,法律團隊常運用 AI 工具協助文件審閱、行為分析、訪談記錄摘要,以及風險預測與代理式 AI 系統等。然而,根據《JD Supra》報導,這些應用可能觸及英國通用資料保護規範(UK GDPR)的義務,特別是當涉及員工、證人或客戶的個人資料時。風險包括 AI 可能鼓勵過度擴張資料蒐集範圍、難以證明資料處理的合法性,以及在重大決策中若缺乏有意義的人工介入,將加劇法律與合規風險。

訴訟前證據開示階段也面臨類似困境。美國聯邦法院法官傑德·S·拉科夫(Jed Rakoff)曾明確指出:「AI 並非你的律師」,預示 AI 與法律的影響才剛開始探討。近期美國數起判例,如 United States v. Heppner 案中律師使用一般生成式 AI 工具導致律師—客戶特權遭棄權,以及聯邦地方法官 Ona Wang 在 In re OpenAI Inc., Copyright Infringement Litigation 案中裁定 OpenAI 須交出包含用戶提示與模型回應的數百萬筆生成式 AI 紀錄,都為業界敲響警鐘。這些案例表明,AI 工具如 ChatGPT、Microsoft Copilot、Claude 與 Google Gemini 等,其互動過程中產生的提示、輸出內容、活動日誌與中繼資料,都可能成為相關且可供取證的電子儲存資訊(ESI)。《JD Supra》指出,這些 AI 資料可能儲存在意想不到的位置(如第三方個人帳戶)、因歸檔限制或自動刪除而消失,或存放在第三方供應商端,造成獨特的證據保存難題。

為此,法律從業人員正積極調整策略。The Sedona Conference 針對人工智慧在證據開示中提出的「生成式 AI 初探指南」(Generative AI in Discovery Primer)強調,訴訟律師應修訂訴訟保留函範本,要求保存 AI 資料;在證據開示規劃中納入 AI 資料管理;確定哪些員工使用了 AI 工具及平台;並更新內部保留程序以納入 AI 生成內容。組織也應實施資料保護影響評估(DPIA),明確定義 AI 工具的使用目的、資料集、使用者及限制,確保人工審查 AI 輸出的決策,並建立可重建方法論的完整記錄,以應對未來的審查挑戰。